量子机学习的最新理论结果表明,量子神经网络(QNN)的表达能力与其训练性之间的一般权衡。作为这些结果的基础,人们认为对经典机器学习模型的表达能力的实用指数分离是不可行的,因为这样的QNN需要一些时间来训练模型大小的指数。我们在这里通过构建有效训练的QNN的层次结构来巩固这些负面的结果,这些QNN在经典神经网络上表现出无条件可证明的,多项式记忆的分离,包括经典神经网络(包括最先进的模型)(例如变形金刚),例如执行经典序列模型模型。这种结构也是计算上有效的,因为引入类别QNN类的每个单元仅具有恒定的栅极复杂性。我们表明,上下文 - 在形象上,语义歧义的定量概念是表达性分离的来源,这表明使用此属性的其他学习任务可能是使用量子学习算法的自然设置。
主要关键词
![arxiv:2402.08606v3 [Quant-ph] 2024年12月23日PDF文件第1页](/bimg/7/7480cc9e291fe0687bc996e023b202b085d24b2c.webp)
![arxiv:2402.08606v3 [Quant-ph] 2024年12月23日PDF文件第2页](/bimg/9/9ec1c848fe162a504bcfec0632ade7008f02830e.webp)
![arxiv:2402.08606v3 [Quant-ph] 2024年12月23日PDF文件第3页](/bimg/e/e26d6ea87dd58782279d6f3554972b4958a53696.webp)
![arxiv:2402.08606v3 [Quant-ph] 2024年12月23日PDF文件第4页](/bimg/1/12f6753e4410a16379fcb5f97827af88e072cf6b.webp)
![arxiv:2402.08606v3 [Quant-ph] 2024年12月23日PDF文件第5页](/bimg/a/a16fc4a511cf1434375f819f759fd15823dbfeb4.webp)
